markovien

markovien
markovien, ienne [maʀkɔvjɛ̃, jɛn] adj.
ÉTYM. Mil. XXe; de Markov, mathématicien russe (1856-1922).
Didact. Relatif aux processus dits chaînes de Markov, décrivant les probabilités d'évolution d'un système à chaque moment d'une suite d'états discrets.
0 Étant donné un diagramme d'états, on produit une phrase en traçant un chemin allant du point initial à gauche au point final à droite (…) Chaque nœud du diagramme correspond à un état de la machine. On peut admettre diverses sortes de transitions d'un état à un autre (…) Ce modèle, dit aussi « modèle de Markov » ou « processus markovien », est le plus simple qu'on puisse concevoir d'un mécanisme fini capable d'engendrer un ensemble infini de phrases.
Nicolas Ruwet, Introd. à la grammaire générative, p. 92-93.

Encyclopédie Universelle. 2012.

Игры ⚽ Поможем сделать НИР

Regardez d'autres dictionnaires:

  • Processus de Décision Markovien — Un processus de décision markovien (MDP) aussi appelé problème de décision markovien est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Le modèle MDP peut être vu comme une chaîne de Markov à laquelle… …   Wikipédia en Français

  • Processus de decision markovien — Processus de décision markovien Un processus de décision markovien (MDP) aussi appelé problème de décision markovien est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Le modèle MDP peut être vu comme… …   Wikipédia en Français

  • Processus de décision markovien — Un processus de décision markovien (MDP) est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Le modèle MDP peut être vu comme une chaîne de Markov à laquelle on ajoute une composante décisionnelle.… …   Wikipédia en Français

  • Processus de decision markovien partiellement observable — Processus de décision markovien partiellement observable Un Processus de décision markovien partiellement observable (POMDP) est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Les modèles de cette… …   Wikipédia en Français

  • Processus de décision markovien partiellement observable — Un Processus de décision markovien partiellement observable (POMDP) est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Les modèles de cette famille sont, entre autres, utilisés en intelligence… …   Wikipédia en Français

  • système markovien — Markovo sistema statusas T sritis automatika atitikmenys: angl. Markovian system vok. Markovsches System, n rus. марковская система, f pranc. système markovien, m …   Automatikos terminų žodynas

  • processus markovien — Markovo procesas statusas T sritis automatika atitikmenys: angl. Markovprocess vok. Markovprozeß, m rus. марковский процесс, m; процесс Маркова, m pranc. processus markovien, m …   Automatikos terminų žodynas

  • processus markovien — Markovo vyksmas statusas T sritis fizika atitikmenys: angl. Markov process; Markovian process vok. Markow Prozeß, m; Markowscher Prozeß, m rus. марковский процесс, m; процесс Маркова, m pranc. processus de Markoff, m; processus marcovien, m;… …   Fizikos terminų žodynas

  • POMDP — Processus de décision markovien partiellement observable Un Processus de décision markovien partiellement observable (POMDP) est un modèle stochastique issu de la théorie de la décision et de la théorie des probabilités. Les modèles de cette… …   Wikipédia en Français

  • Processus de Markov — En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n est pas rendue plus précise par des éléments d information concernant le… …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”